AlphaGo è un’Intelligenza artificiale creata dalla società DeepMind, oggi controllata da Google, per battere gli esseri umani al gioco orientale del Go. Nel 2016 ha sconfitto il campione mondiale con una mossa ritenuta “sbagliata”, spingendo diversi osservatori a parlare di intelligenza quasi magica. Una visione “tecnoentusiasta” che agita l’imperscrutabile ma dimostra di ignorare la statistica. E non solo.
La tecnologia odierna si presenta, software o hardware che sia, sotto forma di “scatole oscure” che i produttori confezionano in maniera da renderci impossibile comprenderla, studiarla e -soprattutto- modificarla. Questa impossibilità si traduce spesso in una forte sensazione di alienazione che fa sì che più di una persona si trovi a disagio.
Secondo il filosofo Gilbert Simondon, l’alienazione tecnica cresce al crescere del divario tra cultura e tecnica. Questo divario fa sì che la tecnica venga vissuta come pericolosa dai tecnofobici, ossia da coloro che pensano che la tecnica sia inferiore alla vera cultura (quella umanistica “classica”), e come magica dai tecnoentusiasti, ossia da coloro che pensano che il sapere tecnico sia un sapere riservato a pochi eletti.
GPT-4/ChatGPT fa parte di una delle più vaste e pericolose campagne di marketing che il mondo dell'informatica abbia mai visto. È una campagna volta a incentivare l'adozione, più vasta e meno controllata possibile, di un nuovo prodotto, delle tecnologie di falsa Intelligenza Artificiale basate sul Deep Learning.
La non-intelligenza delle false "Intelligenze Artificiali" basate sulle tecnologie di Deep Learning, fatto totalmente assodato e condiviso ma volutamente sempre nascosto, la cui conoscenza è vitale, può e deve essere ripetuto instancabilmente, in forma semplice e completamente comprensibile. Un'ottima formulazione è apparsa recentemente sulla mailing list "Nexa" a opera del professor Enrico Nardelli, che qui ringrazio. In sintesi è:
GPT4/ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo. Purtroppo, questo è un problema nostro di grande rilevanza sul piano sociale, poiché ciò che fa lo fa bene, esprimendosi in una forma bella e sofisticata che per noi assume un significato. Questo avviene però solo in quanto noi "proiettiamo" su di essa un significato che è in noi stessi.
Leggi l'articolo completo su ZEUS News
Con l'aiuto di esempi e semplificazioni scopriamo il significato e il funzionamento del Machine Learning (ML): uno dei concetti più nominati e contemporaneamente più misteriosi dei nostri giorni. Scopriremo inoltre quali problemi risolve e il rapporto con l'AI e con il Deep Learning.
Nell'articolo Alessio Pomaro spiega: